在本文中,我们为多个变量的非凸问题提出了一种新颖的解决方案,尤其是对于通常通过交替最小化(AM)策略解决的方法,将原始优化问题拆分为一组与每个变量相对应的子问题,然后使用固定的更新规则迭代优化每个子问题。但是,由于原始优化问题的固有非凸性,即使在每次迭代中可以最佳地解决每个子问题时,优化通常也可以捕获到虚假的局部最小值中。同时,基于学习的方法,例如深层展开算法,受到缺乏标记的数据和有限的解释性的高度限制。为了解决这些问题,我们提出了一种基于元学习的交替最小化(MLAM)方法,该方法旨在最大程度地减少全球损失的部分损失,而不是在每个子问题上最小化,并且倾向于学习一种自适应策略,以学习一种自适应策略更换手工制作的对手,以提前表现出色。同时,拟议的Mlam仍然保持原始算法原则,这有助于更好的解释性。我们在两个代表性问题上评估了提出的方法,即双线性逆问题:矩阵完成和非线性问题:高斯混合模型。实验结果验证了我们所提出的方法在标准设置中的表现优于基于AM的方法,并且能够在具有挑战性的情况下实现有效的优化,而其他比较方法通常会失败。
translated by 谷歌翻译